كشفت شركة "OpenAI" أن ميزة "وكيل شات جي بي تي" الجديدة، التي تتيح للنموذج تنفيذ مهام نيابة عن المستخدم، قد تسبب مخاطر عالية في مجال الأسلحة البيولوجية، وفقًا لما جاء في تصنيف داخلي للشركة.

ويُعد هذا أول منتج من "OpenAI" يُصنّف على أنه قد يساعد "المبتدئين" في تنفيذ تهديدات بيولوجية أو حتى كيميائية.

وعلى الرغم من انه ليس هناك أدلة مؤكدة على قدرة النموذج في تمكين شخص غير متخصص من إنتاج سلاح بيولوجي، فقد فرضت الشركة تدابير وقائية صارمة، شملت رفض الطلبات الخطيرة، والمراقبة المستمرة، والتدخل البشري عند الضرورة.

وأشار أحد أعضاء فريق "OpenAI" الفني إن الخطر أصبح حقيقيًا في 2025، مؤكدًا أن إطلاق النموذج دون هذه الاحتياطات كان سيُعد تصرفًا غير مسؤول. وتأتي هذه الخطوة في ظل تسابق شركات التكنولوجيا على تطوير وكلاء ذكاء اصطناعي قادرين على تنفيذ مهام معقدة بشكل مستقل، ما يفتح آفاقًا تجارية واسعة، لكنه يثير أيضًا مخاوف تتعلق بالأمان.

وأكدت "OpenAI" انها ملتزمة في رقابتها والتحكم البشري لضمان عدم الإساءة لاستخدام هذه التقنيات المتقدمة.